こちらが言うことにうんうんとうなずきながら聞いてくれる。話の途中でこっちが割り込んで話した言葉を理解してくれる。そんなだったら,ロボットと意志を通わせることも可能になるかも。
NTTは会話における「逐次理解」と「逐次生成」が可能なコンピュータ「DUG-1(ダグワン)」を開発したとリリースを出した。今までは話を最後まで聞いてからでないと理解できなかったことを理解できるようにし,言葉を話す場合は自分がどこまで話しているかをきちんと管理しているという。まぁ人間であれば何も考えずに行っていることでもロボットでは今まで出来ていなかった。
人間とロボットとの間の意思伝達の手段はもちろんキーボードタイプがまだまだ続くだろうが,できれば話し言葉で済ませたい。それが一番楽だし,早いし,直感的でわかりやすい。そのときにロボットがどこまで人間の会話を理解し,受け答えしてくれるかが大問題。普通に話した言葉が普通に伝わる,そんなインターフェイスが実現できれば,あと,その命令を実行するのはそれほど大変ではないと思う。手塚治虫のマンガの中の社会は夢物語ではなくなる。
先日のソニーによるロボット犬発売にも驚かされたが,その先にはアンドロイドやメイドロボ(←ぉぃぉぃ^-^;)が待っているのかなぁ。SFやアニメの世界のように人間とおんなじ感覚で接することが出来るロボット…。それがあふれる世界は豊かな社会になっているのか,それとも…。
|